Đăng nhập Đăng ký

markov chain nghĩa là gì

phát âm:
"markov chain" câu
Bản dịchĐiện thoại
  • Từ điển kỹ thuật
    Lĩnh vực: toán & tin
    • chuỗi Markov

    Từ điển kinh doanh
    • Giả thiết Markov
  • chain     [tʃein] danh từ dây, xích dãy, chuỗi, loạt a chain of...
Câu ví dụ
  • Suppose that Xn is an irreducible Markov chain on a countable state space
    Giả sử (Xn ) là một xích Markov với không gian trạng thái
  • So I created a very simple Markov chain implementation.
    Như vậy là chúng ta đã build cơ chế cache đơn giản.
  • Then {Xn ; n ∈ N} is a Markov chain.
    Một hình ảnh của tưởng tượng của Block Chain
  • probability that the Markov chain will start in state i.
    Với πi là xác suất mà markov chain bắt đầu ở trạng thái Si.
  • Probability that the Markov chain will start in state i.
    Với πi là xác suất mà markov chain bắt đầu ở trạng thái Si.
  • This means you need to use Markov Chain Monte Carlo simulation.
    ngoài ra, em có thể tham khảo thêm Markov chain Monte Carlo simulation
  • This means you need to use Markov Chain Monte Carlo simulation.
    ngoài ra, em có thể tham khảo thêm Markov chain Monte Carlo simulation
  • consider the case where the Markov chain starts at a transient state.
    Với πi là xác suất mà markov chain bắt đầu ở trạng thái Si.
  • Consider the case where the Markov chain starts at a transient state.
    Với πi là xác suất mà markov chain bắt đầu ở trạng thái Si.
  • Exact mixing in an unknown Markov chain.
    Báo cáo toán học: "Exact Mixing in an Unknown Markov Chain"
  • thêm câu ví dụ:  1  2  3  4  5